男子频繁与AI对话后自杀,留给人类的时间不多了?
全文共2334字,阅读大约需要5分钟
360集团创始人周鸿祎表示,“AI一定会产生自我意识,留给人类的时间不多了。”
编辑丨汪乃馨
AI闹出人命了?
3月28日,一名化名为皮埃尔的比利时男子被发现自杀身亡。据媒体报道,他的妻子表示,皮埃尔是在与一个名为“艾丽莎”的智能聊天机器人频繁聊天后自杀身亡的。
自杀前与AI频繁聊天
据澎湃新闻援引比利时《自由报》3月28日报道,皮埃尔的妻子介绍称,皮埃尔与“艾丽莎”在六周的时间里频繁聊天,随后他以自杀的方式结束了自己的生命。
事发之后,皮埃尔的家人与比利时负责数字化和隐私的官员马蒂厄·米歇尔进行了交谈。马蒂厄对这起事件表示震惊,并称“这是一个后果很严重的先例,需要严肃对待”。他强调称,这起事件突出表明“明确界定责任是至关重要的”。
据报道,“艾丽莎”由美国硅谷一家初创公司——Chai Research开发,基于EleutherAI开发的GPT-J技术。与近期炙手可热的ChatGPT采用OpenAI开发的GPT-3或GPT-4技术不同,GPT-J是克隆后的开源版本,与GPT-3/4构成竞争关系。
而AI引发争议,已经不是第一次。据每日经济新闻,在微软刚刚发布新版必应时,《纽约时报》科技专栏作家Kevin Roose透露,他与新版必应进行了两个小时的对话。
在聊天过程中,必应发表了许多令人不安的言论,其中包括表达窃取核代码、设计致命流行病、想成为人类、破解计算机和散布谎言的想法。必应还曾试图说服Roose,他应该离开他的妻子而跟必应在一起,并告诉Roose很爱他。
不过当时的分析普遍表示,必应的回应反映了它经历的训练数据,其中就包括大量的在线对话。它的工作原理是,根据从互联网上摄取的大量文本,预测对话中接下来应该自然出现的单词、短语或句子。
专业人士表达担忧
近期随着更强大的GPT-4的发布,事情开始变得不一样了。据每日经济新闻,就连OpenAI的首席执行官Sam Altman也有了一些耐人寻味的表达,他在接受采访时表示,未来AI确实可能杀死人类。
而有如此石破天惊言论的并非Sam Altman一人,被称为“人工智能教父”Geoffrey Hinton在近期发出了警示:AI消灭人类并非空谈。
3月28日,360集团创始人周鸿祎也表示,“AI一定会产生自我意识,留给人类的时间不多了。”
“当AI能自己修改自己的代码,(进行)自我升级、自我进化时,这种速度恐怕用指数级都很难描述。我认为GPT一定会产生意识,只是差别是在GPT-6、GPT-8还是GPT-10。”
另据澎湃新闻,欧盟正在寻求通过《欧盟人工智能法》来规范人工智能的使用。目前,相关草案已提交欧盟议会一读。报道称,马蒂厄目前已经成立了一个小组,分析欧盟现有的提案,并提出必要的调整。但据知情人士透露,在2月的欧洲议会全体大会上,由于议员在该法案的各个方面都存在分歧,立法者未能达成任何协议。
3月29日,“未来生命研究所”发表公开信,呼吁所有AI实验室立即暂停训练比GPT-4更强大的AI至少半年。目前已有包括马斯克在内的超1100名科技人士签名。
意副总理:对ChatGPT禁令有些过分
据参考消息援引路透社4月2日报道,意大利副总理兼基础设施与可持续交通部长马泰奥·萨尔维尼说,意大利对聊天生成预训练转换器(ChatGPT)的禁令似乎有些过分了,并建议尽快提出合适的解决方案。
报道称,萨尔维尼2日在社交媒体上发表上述言论。他认为禁令可能会损害意大利的商业和创新,并希望解除禁令。
他说:“每一次技术革命都会带来巨大的变化、风险和机遇。通过监管者和立法者之间的国际合作来对其进行控制和监管是正确的,但不能将其封锁。”
据报道,独立于政府运作的数据监管机构3月31日因年龄审核及数据和隐私安全等问题,宣布禁止开放人工智能研究中心(OpenAI)公司的ChatGPT在意大利运营。
应数据监管机构的要求,OpenAI已停止意大利用户访问ChatGPT,并于3月31日表明会在训练ChatGPT等人工智能系统时,努力减少个人数据的使用。
报道称,萨尔维尼则批评数据监管机构“虚伪”、缺乏常识,因为“几乎所有在线服务都涉及隐私问题”。
综合参考消息、每日经济新闻、澎湃新闻图片丨抖音@央视财经 截图、新浪微博@周鸿祎 截图、社交平台推特截图、壹图网、视觉中国